谷歌曝光Pixel 4“掌上雷达”实现悬浮触控,用户吐槽:逼我买支架?
相比触摸屏或者语音识别技术,谷歌认为,有物理反馈和触感的交互是更自然的控制方式。
撰文 | 小LV
编辑 | 李郁然
公众号 | AI星球
例如,在介绍视频中,谷歌演示了拇指和食指一起摩擦,以模拟在智能手表上转动表盘。
谷歌在其官方博客中表示:
这些功能只是一个开始,随着时间的推移,Pixel系列会越来越好,动作感知功能也会越来越完善。”
用于面部识别的内部传感器设计
Soli是什么?
微软Kinect为代表的深度感应技术(结构光和飞行时间两种); LeapMotion为代表的红外线投影与成像; uSense为代表的光学立体成像技术。
而从公开资料来看,Project Soli的雷达使用的是57-64GHz的频段,理论上可以实现毫米级别的分辨精度,因此雷达传感器芯片可以集成到硬币大小的芯片中,从而安装在各类设备上——而其他的解决方案目前还不能如此小巧。
因此,Project Soli最适合的应用就是智能家电和设备上的近场手势识别,即检测距离在一米以内的手势识别。
实际上,Project Soli在2015年就公布了原型视频,由谷歌Google’s Advanced Technology&Projects部门研发。
但2019年才开始投入应用到Pixel 4中,虽然谷歌官方还没有明确Pixel 4的发布时间,但从过去几年来看,Pixel新品都是在10月推出,也就是苹果的新iPhone发布一个月之后。谷歌此番提前公布之举,颇有截胡的意思。
不过,类似动作感应的功能并不新鲜,很多年前三星Galaxy手机上就有,但因为过于鸡肋而被吐槽——除了实际应用中的迟钝外,从用户使用习惯上来说,看到手机最直观的反映还是去触屏,而不是和手机保持一段距离,然后去挥手。
那么,手机隔空手势操作的应用场景在哪里?难道还要配备一款手机支架不成?
被冠以“iPhone杀手”的Pixel手机从2016年10月5日正式推出以来就成了谷歌的“亲儿子”,各种测评网站连给高分。
但Pixel手机并不是一款具有颠覆性的产品,也没有让人尖叫的黑科技属性。
而且,谷歌Pixel系列手机的品控一直有问题,例如之前被曝出的通话杂音、拍照闪退、屏幕色彩偏移、过快烧屏、屏幕疏油层磨损过快等,导致业界一直传出“谷歌做不好硬件”的声音。
虽然没发布过真正颠覆行业认知的硬件产品,但这位科技巨头也从来没有放弃过在硬件领域的探索。
2011年,谷歌斥资125亿美元收购垂死边缘的摩托罗拉——而这起谷歌历史上迄今为止规模最大的一笔收购却给它带来了巨大的财务亏损。
3年后,谷歌将摩托罗拉移动转手给联想,交易价格折价近100亿美元。
此外,谷歌也放弃了2013年末花大手笔收购回来的多家机器人公司,包括在2017年6月将波士顿动力(Boston Dynamics)和Schaft出售给日本软银集团。
2012年,Google高调发布过一款社交流媒体播放器“Nexus Q”,这也是Google第一款完全拥有自有品牌的硬件产品。
5个月后,官方就下架了这款还未发售的产品。
同年诞生于Google X实验室的产品Google Glass也是风靡一时,它可以拍照、录像、捕捉突发画面。此外,它还能导航、接受手机的通知信息等等。
不够清晰的使用场景、不到5小时的续航时间以及高达1500美元的“装逼”成本,最终让这款产品无缘个人消费市场。推出3年后,谷歌宣布停售。
2017年,Google Glass低调回归,推出Google Glass EE,是前代的小幅升级,主要面向工厂和医院,不对外发售。
这几年来,谷歌又相继发布了包括智能手机Google Pixel系列产品、智能音箱Home Hub、街景拍摄设备Trekker、AI摄像头Google Clips,以及多款智能手表,产品涉及手机、摄像、AR/VR、AI多个领域,也都曾在发布会上惊艳全场,最后却因为没多少消费者买单而逐渐退出大众视野。
今天,在硬件市场屡战屡败的谷歌不在追求简单的市场份额,而是通过在AI、AR、智能家居、智能化办公方面的持续发力,完成软硬件的整合,从而打造一个全新的AI生态。
但从目前的情况来看,Pixel手机似乎还无法帮助谷歌在硬件领域一雪前耻。
END
你“在看”我吗?